AI资讯新闻榜单内容搜索- transform

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  transform
原来Veo 3早有苗头!人大联合值得买科技在CVPR 2025提出全新「图像到有声视频」生成框架

原来Veo 3早有苗头!人大联合值得买科技在CVPR 2025提出全新「图像到有声视频」生成框架

原来Veo 3早有苗头!人大联合值得买科技在CVPR 2025提出全新「图像到有声视频」生成框架

来自中国人民大学高瓴人工智能学院与值得买科技 AI 团队在 CVPR 2025 会议上发表了一项新工作,首次提出了一种从静态图像直接生成同步音视频内容的生成框架。其核心设计 JointDiT(Joint Diffusion Transformer)框架实现了图像 → 动态视频 + 声音的高质量联合生成。

来自主题: AI技术研报
7611 点击    2025-05-29 14:20
上交大等探索键值压缩的边界:MILLION开源框架定义模型量化推理新范式,入选顶会DAC 2025

上交大等探索键值压缩的边界:MILLION开源框架定义模型量化推理新范式,入选顶会DAC 2025

上交大等探索键值压缩的边界:MILLION开源框架定义模型量化推理新范式,入选顶会DAC 2025

在以 transformer 模型为基础的大模型中,键值缓存虽然用以存代算的思想显著加速了推理速度,但在长上下文场景中成为了存储瓶颈。为此,本文的研究者提出了 MILLION,一种基于乘积量化的键值缓存压缩和推理加速设计。

来自主题: AI技术研报
7923 点击    2025-04-30 08:32
Cartesia: 3 个月融资 9100 万美元,从 Transformer 到 Mamba 重塑语音 AI

Cartesia: 3 个月融资 9100 万美元,从 Transformer 到 Mamba 重塑语音 AI

Cartesia: 3 个月融资 9100 万美元,从 Transformer 到 Mamba 重塑语音 AI

2025 年 3 月 11 日,语音生成初创公司 Cartesia 宣布完成 6400 万美元 A 轮融资,距其 2700 万美元种子轮融资仅过去不到 3 个月。本轮融资由 Kleiner Perkins 领投,Lightspeed、Index、A*、Greycroft、Dell Technologies Capital 和 Samsung Ventures 等跟投。

来自主题: AI资讯
5381 点击    2025-04-06 17:38
AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21Labs 近日发布了其最新的 Jamba1.6系列大型语言模型,这款模型被称为当前市场上最强大、最高效的长文本处理模型。与传统的 Transformer 模型相比,Jamba 模型在处理长上下文时展现出了更高的速度和质量,其推理速度比同类模型快了2.5倍,标志着一种新的技术突破。

来自主题: AI资讯
8302 点击    2025-03-10 00:28
360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!

360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!

360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!

现有的可控Diffusion Transformer方法,虽然在推进文本到图像和视频生成方面取得了显著进展,但也带来了大量的参数和计算开销。

来自主题: AI技术研报
6007 点击    2025-03-03 10:06
MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

Transformer 很成功,更一般而言,我们甚至可以将(仅编码器)Transformer 视为学习可交换数据的通用引擎。由于大多数经典的统计学任务都是基于独立同分布(iid)采用假设构建的,因此很自然可以尝试将 Transformer 用于它们。

来自主题: AI技术研报
6042 点击    2025-03-02 13:22
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。

来自主题: AI技术研报
6058 点击    2025-02-28 15:06
不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

当前的 AI 领域,可以说 Transformer 与扩散模型是最热门的模型架构。也因此,有不少研究团队都在尝试将这两种架构融合到一起,以两者之长探索新一代的模型范式,比如我们之前报道过的 LLaDA。不过,之前这些成果都还只是研究探索,并未真正实现大规模应用。

来自主题: AI技术研报
9381 点击    2025-02-27 14:40